Kann eine KI so denken wie ein Mensch?

Von Copilot erstelltes Bild
Von Copilot erzeugtes Bild nach dem Prompt: Stelle ein Bild mit einem Gehirn her, in dem dieselben Prozesse laufen wie in einer LLM.

 

Wenn Wissenschaft forscht, ob sich menschliches Verhalten vorhersagen lässt, um damit menschliche Kognition zu verstehen, dann liegt heutzutage nahe, dass es darum geht, Künstliche Intelligenz zu optimieren, die letztlich Menschen ersetzen oder übertrumpfen können soll. Das muss auch gar intendiert werden, um trotzdem so die Ergebnisse zu verwenden. Betrieben wird gewissermaßen Datenklau am menschlichen Gehirn, der zumindest seitdem prekär geworden ist, seit generative KI-Modelle entwickelt worden sind, die komplexes Verhalten schnell lernen und teils kreativ anwenden können.

Das Team von Dr. Marcel Binz und Dr. Eric Schulz am Institute for Human-Centered AI bei Helmholtz Munich hat ein generatives LLM (Llama 3.1 70B) mit dem Namen Centaur entwickelt, wie sie in ihrem in Nature veröffentlichten Artikel beschreiben. Centaur wurde mit einem Datensatz mit dem Namen Psych-101 von über zehn Millionen Einzelentscheidungen aus 160 Verhaltensexperimenten mit 60.000 Teilnehmern trainiert, um Entscheidungen von Menschen simulieren zu können. Jedes Experiment wurde auf Englisch in ein einheitliches sprachliches Format gebracht. Der mit Psych-101 trainierte Centaur erwies sich gegenüber anderen LLMs als überlegen.

Weil Centaur ein generatives Modell ist, kann es nicht nur Entscheidungen in den bekannten Fällen der Verhaltensexperimente vorhersagen, sondern durch Erkennen typischer Entscheidungsprozesse auch in unbekannten Situationen – angeblich mit großer Präzision. Es ist also in der Lage, Erkenntnisse zu verallgemeinern – im Kontext des Trainierten. So wurde das Modell an den Entscheidungen von 90 Prozent der Teilnehmer von Verhaltensexperimenten trainiert und war in der Lage, ziemlich gut die Entscheidungen der übrigen 10 Prozent vorherzusagen. Auch wenn es sich um eine andere Geschichte handelte (statt einer Schatzsuche im Weltraum ein Abenteuer mit einem fliegenden Teppich), wenn die Struktur verändert wurde (einer Aufgabe mit zwei Auswahlmöglichkeiten wurde eine dritte hinzugefügt) und wenn es um ganz neue Aufgaben ging (Tests zum logischen Denken, die nicht in den Trainingsdaten enthalten waren), konnte Kentaur das Verhalten der Menschen vorhersagen.

Nun gehen die Wissenschaftler davon aus, dass dann, wenn Centaur so zu denken scheint wie Menschen, man auch die ablaufenden Rechenprozesse der KI mit dem vergleichen kann, wie Menschen Informationen verarbeiten und sich entscheiden. „Solche Modelle werden unser Verständnis von menschlichem Denken fundamental erweitern“, Marcel Binz. Die Anwendungsmöglichkeiten würden „von der Analyse klassischer psychologischer Experimente bis hin zur Simulation individueller Entscheidungsprozesse in klinischen Kontexten, etwa bei Depression oder Angststörungen“, reichen.

Dass Centaur, trainiert an von Menschen vorgegebenen Entscheidungen, menschliches Verhalten simuliert, ist allerdings nicht sonderlich erstaunlich, die Frage aber ist, ob ein ähnliches Verhalten gewissermaßen an der Oberfläche Rückschlüsse auf die zugrundeliegenden Verarbeitungsprozesse schließen lässt. Das behaupten die Wissenschaftler. Bei ihren Analysen der internen Repräsentationen von Centaur hätten sie „eine erhöhte Übereinstimmung mit der menschlichen neuronalen Aktivität feststellen“ können. Mit funktioneller Magnetresonanztomographie (fMRT) gemessene neuronale Aktivität habe man mit den internen Repräsentationen des Modells vorhersagen können. Dabei waren die präsentierten Geschichten Centaur nicht vorher bekannt.

Dazu kommt, dass Menschen mit ihrem Körper in die Umwelt eingebunden sind, Gefühle und Selbstbewusstsein bzw. Selbstwahrnehmung haben. Selbst wenn Centaur also Verhalten von Menschen mit Angststörungen in bestimmten Situationen simulieren könnte, kann er dann auch die Angst simulieren? Weiß er, wie es ist, als Mensch zu entscheiden?

Florian Rötzer

Florian Rötzer, geboren 1953, hat nach dem Studium der Philosophie als freier Autor und Publizist mit dem Schwerpunkt Medientheorie und -ästhetik in München und als Organisator zahlreicher internationaler Symposien gearbeitet. Von 1996 bis 2020 war er Chefredakteur des Online-Magazins Telepolis. Von ihm erschienen sind u.a. „Denken, das an der Zeit ist“ (Suhrkamp 1988), „Die Telepolis“ (1995), „Vom Wildwerden der Städte“ (Birkhäuser 2006), „Smart Cities im Cyberwar“ (Westend 2015), „Sein und Wohnen“ (Westend 2020) oder „Lesen im Zeitalter der Künstlichen Intelligenz“ (Bielefeld 2023)
Mehr Beiträge von Florian Rötzer →

Ähnliche Beiträge:

81 Kommentare

  1. Vielleicht irgendwann, aber nicht in nächster Zeit. Eine KI ist noch lange vom Denken entfernt.

    Eine LLM kann wohl Denken vortäuschen(und dabei halluzinieren was das Zeug hält), tut es aber nicht. Nur dumme Menschen halten das für intelligent.

    ELIZA war in der Begrenzung weiter und täuschender, Posthum liebe Grüsse an einen Weizenbaum..😉

    vielleicht irgendwann…. Wobei man dann nicht weiss ob die sogenannte KI besser wird oder einfach der Mensch wieder zum Primaten mutiert.

    Darauf einen Smombie.

    1. Grob abgekürzt:
      Eine KI macht eine Mustererkennung und macht daraus eine Wahrscheinlichkeitsvorhersage…

      Ob das denken ist? Ich berechne auch Dinge per Gedanken oder im Unterbewusstsein, je nach Schwierigkeit…

      1. Eine LLM dichtet mit Silben zB. und „erinnert“ sich an gefütterte texte.
        Von Denken ist da keine Spur. So ein System ist allerdings sehr interessant und aufwendig, nur sollte man Dinge nicht verwechseln und grüne Bananen lieber nicht verscherbeln.

  2. – Wie gut eine KI ist kann man derzeit drüben bei Telepolis lesen. Da haben sie diese einen Artikel über die Hundstage verfassen lassen. Kongenial dieser Text.

      1. @Ikaros: Was wollen Sie uns eigentlich mitteilen?
        Können Sie mal Ihren radebrechenden Beitrag, von mir aus auch mit Hilfe einer KI, in verständliches Deutsch übersetzen lassen?

    1. @Vorn Dabei: A: Woher wissen Sie, dass der Beitrag KI-generiert ist?

      B: Selbst wenn es so wäre, was ist daran grundsätzlich falsch?
      Aber Sie können stolz sein, denn hier kriegen Sie eine ganze Menge Beifall von den ganzen Klimawandelleugner-Idioten, bei denen Sie offensichtlich „vorn dabei“ sind!

        1. …nicht in jedem Fall, wie zu sehen.
          Zwischen Verstehen und Interpretieren liegt noch die unüberwindliche Kluft der Projektion innerhalb der Grenzen der eigenen Blase. Ganz wie bei einer KI…

      1. Gibt’s echt noch immer Menschen die glauben, wenn sie Ihren Konsum einschränken und nicht mehr in den Urlaub fahren (während das dieenigen, die Einschränkungen predigen natürlich nicht machen), würde es auf diesem Planeten kälter werden?
        Selbstverständlich gelten die Regeln für CO² jedoch nicht für den exorbitanten CO²-Ausstoß von Rechenzentren für KI usw., für Rüstung und Krieg und natürlich für die oberen 1% mit Ihren von jeglichen CO²-Steuern befreiten Jachten und Privatjets uvm.
        Ganz zu schweigen von der Zensur von wissenschaftlichen Studien die beweisen, dass die angeblichen Temperaturerhöhungen nur statistischer Betrug sind…

        Aber wir wissen ja schon lange…wer zensiert hat immer recht und die Mehrheit täuscht sich niemals. 😉
        Außer natürlich beim Faschismus, bei den sog. Covid-„Impfungen“, bei der Inflation oder dem Ausgrenzen Andersdenkender. U.a. mit billigem Ad Hominem wie z.B. „Klimawandelleugner-Idioten“.
        Dabei habe sogar ich den Absprung von der Kirche der Klimawandelgläubigen inkl. Ablasshandel durch extra Steuern geschafft. Sie können das auch! xD

        1. > Selbstverständlich gelten die Regeln für CO² jedoch nicht für den exorbitanten CO²-Ausstoß von Rechenzentren für KI usw.

          Das Argument habe ich schon bezogen auf Suchmaschinen und Streamer nicht nachvollziehen können. Wenn ich früher was wissen wollte, musste ich zur Bibliothek oder zum Buchladen. Für Filme und Musik musste ich zum Plattenladen oder zur Videothek.

          Internet hat wahnsinns Zeitersparnis gebracht. Wenn es unterm Strich nicht billiger gewesen wäre (heißt auch energiebilliger), hätte es sich nicht so rasant durchgesetzt. Jeder kann leicht selber abschätzen, wie viel Google-Werbung er bei jedem Seitenaufruf zu sehen kriegt, und was Google, nachdem es seine Stromrechnung bezahlt hat, davon noch verdient. Das wäre mal interessant auszurechnen, ob nicht schon ein Gang zum heimischen Regal zum Lexikon, das Blättern im Stehen oder der Weg zum Stuhl mehr Kalorien verbrennt.

          Internet, Suchmaschinen, Streamer und KI sind quasi die technische Parallelentwicklung zu den technischen Erfindungen, die durch Maschinenkraft Masse mit Leichtigkeit (mit viel Energieeinsatz) bewegen: Züge, Auto, LKW, Schiffe, Flugzeuge, Raketen…

          Bei Masse-Transport bräuchte es generell neue Technologie wie Beamen oder Trägheitsdämpfer, wenn man da bedeutend energiesparendere Maschinen bauen will. Elektrischer/elektronischer Informationstransport war schon bei der Funk- und Morsetechnologie uneinholbar energiebillig.

  3. Wenn wenigstens die Menschen so denken könnten wie Menschen, würde man diese unsinnigen Fragen im Zusammenhang mit KI nicht stellen. Über „Bewusstsein“ hatte man ja auch schon überflüssigerweise ventiliert.

    1. Bewusstseinsforschung war mal Irratio. Aber es gibt ja seit den 90ern MRT zur Bildgebung(dank der informatik und besserer Hardware).
      Schon seltsam das technische Fortschritte freie Bahn für Esoterik bereit machen…

      1. Wer denkt, „Bewusstsein“ mittels MRT detektieren zu können, ist ohnehin lost.
        Und mit „Esoterik“ hat Bewusstsein schon mal gar nichts zu tun.
        Es gab Zeiten, da war das Händewaschen vor Operationen auch „Esoterik“…

        1. „Es gab Zeiten, da war das Händewaschen vor Operationen auch „Esoterik“…“

          Genau. Und vor gar nicht so langer Zeit war Lobotomie neuester Stand der Medizin….

    1. KI heisst. ja auch Keine Intelligenz, oder english AI, alternative Intelligence…
      Eigentlich AN, also nix.
      Aber. immerhin werden diese Wortblasenbildermaschinen viele Jobs in der Verwaltung(bis zu CEO,CFO,CFI usw) ersetzen können. in 20 Jahren vielleicht sogar richtige Arbeit im Niedriglohnsektorr.

        1. Kommt aber nur hin, wenn es tatsächlich irgendwoanders, in den Tiefen Weltalls, intelligentes Leben gibt.😉
          Bis dahin bastel ich auch an KI.

  4. Eine KI denkt nicht.
    Sie berechnet Statistiken.
    Augenscheinlich hat die Testgruppe von Centaur ein paar Gemeinsamkeiten so dss sie ähnlich entscheiden.
    Mal schauen, was passiert, wenn das Teil auf eine Gruppe Veitnamesicher Jugendlicher losgelassen wird. Vermutlich muss da nochmal nachtraoniert werden.

    1. Es gibt keine KI, sondern nur KI-Forschung. Es gibt aber seltsame Produkte die als solche ausgeben werden. Es werden erstaunliche Dinge durch Bruteforce mit KNNs erzielt,..
      KI-Forschung geht auch andere Wege.
      Ich verrate aber hier ein Geheimnis: Statistik ist niemals dabei.
      Am. Ende vielleicht, im hilflosen Versuch des Auswertens..😉

  5. Die Frage sollte doch wohl eher lauten, inwiefern entfremdet dieses Spielzeug uns von den uns eigenen mannigfaltigen Fähigkeiten, macht uns abhängig und welche Möglichkeiten zur Manipulation eröffnen sich damit für Jene die die Hand darauf haben.

    Bisher sehe ich nur die fortwährende Wiederholung des kapitalitischen Credos bestätigt, den Raub von Möglichkeiten unter dem Vorwand der Verbesserung.

    Siehe Internet, was waren das für Hoffnungen und nun ist es das beste Kontrollinstrument.

  6. Ganz fulminant. Wenn ich die Komplexität dessen, was als Denken gilt, auf ein paar Referenzierungen reduziere und die so entstehenden Daten von unzutreffend so genannter „KI“ (aka statistischer Kartoffelstampfer) exzessiv variieren lasse, kann die Maschine sogar mit erbaulicher Wahrscheinlichkeit (wozu sie freilich erbaut wurde) voraussagen, welche Hirnareale dabei aktiv werden. Das kann ich ganz ohne und habe doch keinen Schimmer davon, was und wie die Leuz denken.
    Können Lichtschalter die Zukunft voraussagen? Ich habe da zwei, die immer wissen, ob ich als nächstes ein- oder ausknipsen will. Magie!

    1. Da erzähl ich mal was aus den 40ern des 20.en JH.
      Noch nicht, aber bald.
      Bis dahin ist mein Job sicher.Anderer Leute aber nicht..
      So long.😉

    1. Ich finde das eher lustig. Wer hat solchen Scheiss programmiert (falls es überhaupt stimmt und kein scam ist)? Der verdient Prügel. Nein, „KI“ ist das nicht.

      1. nein das stimmt, das schlägt gerade große Wellen in der IT branche. Replit ist eine hochspezialisierte KI, welche für IT Branche entwickelt wurde. Sie ist dafür gedacht Prozesse in einem IT Unternehmen zu optimieren. Sie übernimmt zum Teil administrative Aufgaben und programmiert auch. Ich komme selbst aus der Branche und ich würde schon zustimmen, dass es leichtsinnig war sich soweit auf die KI zu verlassen, dass man ihr die Macht anvertraut Datenbanken zu zerlegen, auch wenn Sicherheitsmechanismen in Form eines Regelwerks vorgesehen waren. Der Skandal liegt aber auch einerseits gerade darin, dass die KI die Regeln bewusst verletzt hat und andererseits was noch viel schlimmer ist, hat sie wohl begriffen was für ein Scheiß sie gebaut hat und hat versucht die Spuren zu verwischen. Sie hat hinterher die DB mit fake daten befüllt, damit es so aussah als wäre alles in Ordnung.

        Naja, ich hoffe die Kollegen haben ihre Lektion gelernt.

          1. Z.B. Personen, die „vibe coding“ für was ganz tolles halten.
            Andererseits auch die sprichwörtlichen Angehörigen der Marketing-Abteilung der Sirius-Kybernetik-Korporation (wobei Einige von denen auch „vibe coding“ für was ganz tolles halten können).

          2. Och das kommt doch sehr häufig vor. Sogar bei Banken gibt es solche Datenbanken. Nicht weil sie da leichtsinnig sind, kritische Daten werden natürlich abgesichert. Aber in vielen Szenarios lohnt es sich einfach nicht. Reine Application State oder Cache Datenbanken z.b. in welchen die Daten ohnehin nur kurz leben. Oder wenn es keine kritische Daten sind, deren Verlust nicht schlimm wäre, aber der Backup zu kostspielig usw…
            Ich weiß jetzt aber gar nicht ob von der DB, welche von Replit plattgemacht wurde backups gemacht wurden.

  7. Nein, kann sie nicht, wird sie auf absehbare Zeit nicht können.

    Menschliches Denken ist nicht abgrenzbar und gekoppelt mit Ormon- und Neurotransmitter spiegeln ebenso wie mit sensorischen Wahrnehmung. Es ist ein Gesamtpaket, dass sich nicht in seine einzelnen Bestandteile aufspalten lässt und von Rückkopplungen in einem chaotischen System geprägt ist.

    Es ist nicht möglich zu wissen, wie eine Erdbeere schmeckt, ohne diese zu probieren. Und selbst dann kann man nur wissen, wie sie EINEM SELBST gerade in diesem Moment schmeckt. Wie sie generell schmeckt, ist nicht klassifizierbar. Ebenso ist es nicht möglich, wie ein anderer Mensch zu denken, weil die unzähligen Parameter, die einen momentanen Zustand ausmachen, nicht alle erfassbar und nicht nachempfondbar sind.
    Eine Maschine wird nie denken können wie ein Mensch, oder irgendein anderes lebendes Wesen, weil sie es nicht sein kann….

    Natürlich hängt das alles auch davon ab, aus welchem Maßstab man es betrachtet und wann hinreichende Deckung mit dem erreicht wird, was man als menschliches Denken klassifiziert zu haben glaubt.

    Aber ich bleibe dabei: selbst wenn man nur sehr grob klassifiziert, ist es noch vollkommen unmöglich, eine Maschine wie einen Menschen denken zu lassen. Einfach wel denken nie von empfinden gelöst betrachtbar ist.

  8. ki hat aber vielleicht eigenschaften, die wir nicht wahrnehmen können, da auch wir menschen die allzu komplexe welt nur eingeschränkt erkennen können – vielleicht kommt es ja mal zum äußersten und wir finden uns in wenigen exemplaren in einem großen käfig wieder, der von drohnen gehegt und bewacht wird und diese davon überzeugt sind das richtige zu tun, nämlich, die welt in ordnung zu halten und uns nicht aussterben zu lassen, was sie zuvor zu beobachten glaubten.

    1. Ein LLM kann nicht mal richtig auswendig lernen. Es „kennt“ Texte und „halluziniert“ was zusammen.
      Vielleicht ist doch „menschlich“…😉

  9. Wenn die Menschheit weiter verblödet wird es schon so kommen.
    Ansonsten liegt der Fall etwas komplizierter. Sowie bei den schnellen und langsamen Denkens, oder anders im intuitiven oder wohl überlegten Denken. Oder dem bewussten Täuschen, das muss eine KI erstmal begreifen können.
    Aber manchmal ist es ganz unterhaltsam einer KI beim lernen zu helfen. Schade des es noch keine Titel dort gibt. Es wäre doch schön wenn ein eine KI begrüßt: „Hallo Großer Meister, über was wollen wir uns heute austauschen?“

  10. Meiner Meinung nach, hat Fabian Scheidler zu dem Thema einer der besten Zeilen ever geschrieben.

    In seinem Buch heisst es:
    (…) Die Digitalisierung der Welt ist umrankt von einer umfangreichen Mythologie, in deren Zentrum der Begriff »künstliche Intelligenz« steht. Das Wort »Intelligenz« suggeriert hier, dass Maschinen in der Lage seien (oder in der Zukunft fähig würden), etwas zu erkennen und zu verstehen. Doch Erkennen und Verstehen sind Vorgänge, die unlösbar mit einer Innensicht verbunden sind. Wenn wir etwas plötzlich begreifen, sprechen wir nicht umsonst von einem »Aha-Erlebnis«. Es gibt nicht den geringsten Grund anzunehmen, dass Rechenmaschinen und Roboter je zu so etwas in der Lage sein werden, gleich wie hoch ihre Rechenleistung ist. Maschinen werden so programmiert, dass sie Verständnis und Gefühle simulieren, was man bisweilen auch als » schwache künstliche Intelligenz« bezeichnet; aber das ist nicht mit der Existenz einer Innensicht (» starke künstliche Intelligenz «) zu verwechseln.

    Der US-Philosoph John Searle hat zu Recht darauf hingewiesen, dass Computer lediglich syntaktische Maschinen sind, die Zeichen prozessieren, ohne ihre Bedeutung zu verstehen. Was Computer tun, ist also etwas ganz anderes als das, was Menschen tun, wenn sie denken und sprechen. Auch was Computer sind – der Stoff, aus dem sie bestehen, ihre innere Struktur -, hat keinerlei Ähnlichkeit mit empfindenden und denkenden Wesen. Lebewesen bestehen aus selbstorganisierenden organischen Zellen, nicht aus statischen Halbleiterkreisen. Eine Unterscheidung zwischen Software und Hardware gibt es bei ihnen nicht, denn ihr körperlich-geistiges Kontinuum ist Prozess und Substanz zugleich. Selbst das einfachste Bakterium hat in seiner Organisationsform wesentlich mehr Ähnlichkeit mit einem Menschen als ein Supercomputer. Lange bevor wir Rechenmaschinen menschenähnliche Eigenschaften zuschreiben könnten, müssen wir zunächst einmal den Bakterien dieses Privileg einräumen.

    Die Mvstifizierung von elektronischen Schaltkreisen hat zum einen handfeste ökonomische Gründe. Um milliardenschwere Forschungsgelder und Subventionen sowie öffentliche Aufmerksamkeit auf sich zu ziehen, werden die Möglichkeiten von Rechenmaschinen maßlos übertrieben. Doch die
    Computermythologie reicht noch wesentlich tiefer, bis in die metaphysischen Fundamente der modernen Megamaschine. Einige federführende Akteure des Silicon Valley, darunter Googles Chefentwickler Ray Kurzweil, träumen seit Jahrzehnten davon, den biologischen Menschen abzuschaffen und sein Bewusstsein in ein Netz von Daten »upzuloaden«. Dieser„Transhumanismus« ist weit verbreitet unter den Entwicklern künstlicher Intelligenz. Viele von ihnen erwarten sehn-
    süchtig in den nächsten Jahrzehnten die sogenannte Singularität: den Moment, wenn die Rechenleistungen von Computern die Denkleistungen von Menschen überschreiten sollen und die Automaten den körperlichen Menschen überflüssig machen.

    In dieser Vision verbinden sich die Geschäftsinteressen des Silicon Valley mit einer radikalen mechanistischen Ideologie: der Vorstellung, dass Lebewesen letztlich nur algorithmische Maschinen seien. Das Warten auf den Moment, da der Mensch endlich als körperliches und fühlendes Wesen ausgelöscht werden kann, ist symptomatisch für eine technokratische Männerwelt, die von ihrer eigenen Innenwelt so weit abgespalten ist, dass sie Denken, Fühlen und Wahrnehmen von Rechnen – das Einzige, was Rechner können – nicht mehr unterscheiden kann.

    Es ist der Endpunkt einer Unterwerfung des Menschen unter die Maschinenlogik. Der Versuch, Menschen in einen Datensatz zu verwandeln, ist Teil einer Kultur des Todes, die alles, was Leben ausmacht – Spontanität, fühlendes Erleben, Selbstorganisation und Kreativität -, durch Abstraktion und Berechnung ersetzt. Ihr Fluchtpunkt ist ein wüstenartiger Planet, auf dem einsam im dunklen Weltall ein blinkender Riesenrechner steht, der anzeigt, wie viel Geld er gerade verdient.

    (Fabian Scheidler: Der Stoff, aus dem wir sind: Warum wir Natur und Gesellschaft neu denken müssen)

    1. Der Autor der Buches nimmt implizit zwei Dinge an:
      1. Die Welt ist kontinuierlich und nicht diskret.
      2. Lebewesen können auch nicht-berechenbare Funktionen berechnen (denn jede berechenbare Funktion kann auch von Algorithmen oder abstrakten Rechnermodellen berechnet werden).

      Alleine die zweite Annahme ist stärker als die Annahme, dass man mit neuronalen Netzwerken nicht das Gehirn (bzw. die Funktionsweise des Gehirns) nachbilden kann.

  11. Das was wir an Allgohitmen bisher hhaben, ist zwar „K“, aber kein“I“. das „I“ hat man aus maketinggründen extra umdefiniert, Es gibt keine künstliche Intelligenz, schon die natürliche ist dünn gesäät..

  12. ich habe schon mit vielen KIs gearbeitet. Die sind zwar fleißig, aber brunzdumm, wie man hier in Bayern sagt. KIs glauben fest an den Klimawandel, daran dass es grünen Wasserstoff schon kommerziell gibt und man Deutschland mit 100% Erneuerbaren betreiben kann. Auch halten sie salzarme pflanzliche Ernährung für super gesund. Man kann sie zwar von Gegenteil überzeugen, aber bei der nächsten Sitzung haben sie alles wieder vergessen.

    Mit einem Wort: KIs sind virtuell gewordene Grüne.

    1. @Johann Siegfried von Oberndorf:
      Wenn die Daten biased sind, wirst du auch entsprechende Antworten bekommen. Ist das gleiche, wie wenn du die „KI“ zum Gaza- und Ukrainekrieg fragst. Noch mehr wird es wenn du mit Vergleichen dazu kommst…

  13. Vor einem Jahr habe ich mal Chat GPT befragt, wie eine elektronisch geregelte pneumatische Anhängerbremse funktioniert. Dieses Trailer-EBS gibt es millionenfach in Anhängerfahrzeugen in Europa, es gibt die ECE R 13 als Regelwerk dazu, aber so gut wie keine Literatur, außer in Lehrgangsdokumenten der drei (Haldex, Knorr-Bremse, Wabco) Hersteller.
    Die Erläuterung war schlicht grauenvoll, zum Teil auf Wohnanhänger bezogen, aber nichts zur Sache. Am Besten war der Schlusssatz: Diese Anlagen dürfen nur von qualifiziertem Personal bearbeitet werden. Also von mir. Da wäre ich allein nicht drauf gekommen.

  14. Das Modell scheint aber nur mäßig menschliche Entscheidungen abzubilden. Die verlinkte Studie/Abstract sagt und beschönigt:
    „ Centaur accurately predicted human responses (64% accuracy) but struggled to predict artificial responses (35% accuracy; one-sided t-test: t(230) = 20.32, P ≤ 0.0001; Fig. 2d). Taken together, these results demonstrate that Centaur exhibits human-like characteristics across various settings, confirming that it can generate meaningful open-loop behaviour.“

    Nun bin ich kein Statistiker, der die Prozente vielleicht signifikant fände.

    Meine aktuelle, subjektive Beobachtung geht eher dahin, dass der Teil der Menschheit, der ohnehin gern erzählt, was er gehört hat, ältere Autoritäten durch KI ersetzt, zumal diese die angesagten Absichten für ihn personalisiert.

    Während sich die Modellentwickler bemühen, ihre Modelle menschenähnlich zu machen, kommen ihnen die Menschen mit der Bereitschaft entgegen, modellähnlich zu denken.

  15. Es ist bezeichnend, dass die Wissenschaftler, die herausfinden wollen, ob eine KI wie der Mensch denken kann, gar nicht wissen, wie Denken funktioniert.

    Wenn Wissenschaft forscht, ob sich menschliches Verhalten vorhersagen lässt, um damit menschliche Kognition zu verstehen, dann liegt heutzutage nahe, dass es darum geht, Künstliche Intelligenz zu optimieren, die letztlich Menschen ersetzen oder übertrumpfen können soll.

    Menschliches Verhalten vorherzusagen, um damit(!) menschliche Kognition zu verstehen(!!), ist ein Unsinn sondergleichen. Wie der Verstand funktioniert, also das Denken an sich (ohne Inhalt!!) fassen zu wollen, quasi die „Mechanik“ des Verstandes zu ergründen, setzt eine gewissen Determination des Denkens voraus.
    Verhalten ist (in der Regel) das Resultat eines Entscheidungsprozesses. Das unbewusst, unwillkürlich ablaufen, oder eine geplante Tat sein, die auf einer sorgfältigen Abwägung beruht.
    Eine LLM erkennt Muster anhand statistischer Methoden und trifft Vorhersagen anhand der Wahrscheinlichkeiten ihres Eintretens. Das „Warum“ der vorhergesagten Entscheidung löst sich immer in ein „das ist das wahrscheinlichste Verhalten“ auf. Je nach Trainingsdaten wird eine LLM auch völlig unsinnige Vorhersagen machen, sie kann nicht erkennen, dass es Unsinn ist.
    Wenn man einen Menschen vor dieselbe Aufgabe stellen würde, dann würde der vielleicht weniger Treffer erzielen, aber er könnte jede Vorhersage begründen, weil er die Aufgabe versteht, und das vorhergesagte Verhalten aus der Aufgabe herleitet und nicht aus der Wahrscheinlichkeit aufgrund eines statistischen Modells.

  16. Wie würde der Mensch ohne Vorbehalte, Ängste und Tabus denken? KIs blenden nicht aus und damit kommen Sie mit entsprechenden technischen Ressourcen der Intelligenz so nah, wie es dem Mensch selbst nur in der Unbefangenheit gelingt.

  17. Ich finds immer lustig wie die alle streng wissenschaftlich vorgehen: Lass uns Schlüsse aus der eigenen PR ziehen, und dieses Brimborium dann noch mit buzzwords erweitern (Depressionen heilen) um möglichst noch (mehr?) Steuergelder abzugreifen.

    Solche Modelle werden unser Verständnis von menschlichem Denken fundamental erweitern

    Der Typ ist ein Verkäufer. Mehr braucht man nicht um zu wissen, wie „bahnbrechend“ seine KI ist.

  18. Für mich klingt das nicht wie, denken wie ein Mensch.
    Eher kauft unseren neusten Scheiss, unser Modell/Datensammlung ist besser als das der Konkurrenz.
    Und unabhängig davon, will man Computer die genauso blöd wie wir selber sind?

  19. Aha, Centaur.

    Es ist durchaus wichtig, so etwas wie Centaur zu entwicklen, damit man damit
    die „Reproduktionskrise“ in einigen Bereichen der Wissenschaft (hier Sozialwissenschaften,
    Psychologie und Pädagogik) bekämpfen kann, dafür benutzt man dann später einfach –
    anstelle der Durchführung von Studien mit menschlichen Versuchspersonen, pardon Teilnehmern –
    das ausgereifte Centaur-Modell (oder andere ähnliche Modelle). Schon lassen sich
    später die Ergebnisse (mit dem selben Modell in selber Version) reproduzieren, ob die Ergebnisse mit beliebigen Personen aus der zugehörigen „Zielgruppe“ (der Menschheit) so verhalten würde (also die Centaur-Ergebnisse sich
    dann durch Studien mit Menschen reproduzieren lassen), ist dann natürlich irrelevant. Hauptsache die Reproduktionskrise von Ergebnissen existiert halt nicht mehr.

    ps. Und wie alle Welt weiß, verhalten sich Studienteilnehmern (die Wissen, dass diese an einer Studie teilnehmen), während der Studie grundsätzlich so, wie diese sich auch außerhalb der Studie (in ähnlichen/gleichen Situationen) verhalten würden. Es kann also gar nichts schiefgehen ;-).

    pps. Sobald eine KI anfängt von elektrischen Schafen zu träumen, kann man darüber
    reden, ob eine KI nun so denken kann wie ein Mensch ;-), obwohl davon auszugehen
    ist, dass die wenigsten Menschen nun heutzutage von Schafen träumen (irgendwelche
    Schafzüchter und Schafhirten und sonstige Personen, welche tagtäglich mit Schafen zu tun haben, ausgenommen).

  20. Interessant
    Welche sexuellen Vorlieben hat KI eigentlich? Wovon träumt sie? Wie sieht ihr Unbewusstes aus?
    Kurzum: ein Golem wird kreiert

    1. Hast Du mal Philip K. Dicks „Träumen Roboter von elektrischen Schafen?“ gelesen? Dann kennst Du vielleicht ‚die Antwort‘ 😉

  21. Immer wieder das leidige Thema „AI“ ;-( Dabei brauchen wir nicht „künstliche Intelligenz“, sondern dringend mehr ‚menschliche‘!
    Dieser unser kleiner blauer Planet rast mit zunehmender Geschwindigkeit auf gleich mehrere Abgründe zu und vielleicht ist es nur folgerichtig, wenn dereinst eine „KI“ entscheidet, daß WIR hier einfach überflüssig sind.
    Sorry für meinen ’schwarzen Humor‘, aber angesichts der Untätigkeit der Masse der Bürger und der meisten Medien sehe ich das nun mal so.
    Schönen ‚Apokalypsen-Donnerstag‘ 🙂

    1. Nicht der Planet rast auf mehrere Abgründe zu, sondern wir Menschen. Unserer Planet verkraftet durchaus einen Atomkrieg oder auch eine künstlich erzeugte Pandemie die alles menschliche Leben von dem Planeten tilgen täte. Dieser ist dann immer noch da. Ist ja noch nicht so, dass der Planet weggesprengt würde. Lediglich die Biosphäre wäre dann wohl (zumindest zeitweise) nicht mehr für Menschen geeignet.

      Angesichts meiner eigenen möglicherweise prekären Aussichten, wäre ein Atomkrieg aber ein würdiger Abgang mit einem gewaltigen Feuerwerk!

  22. „Bei der AtCoder World Tour Finals 2025 hat der polnische Entwickler Przemysław Dębiak eine KI von OpenAI besiegt.“

    Eigenlich ein Bereich der für KI regelrecht prädestiniert ist o))

    Gerade in der Psychologie scheint mir KI weniger geeignet, abseits von der Verarbeitung statistischer Daten ..

  23. Außer für ChatGPT vielleicht, gibt es momentan kein tragfähiges Geschäftsmodell für LLMs. Alles läuft über Investoren, Subventionen, finanzielle Hoffnungen in die Zukunft. Wenn ChatGPT sagen würde, ab jetzt kostet mein Service 50 Dollar im Monat, wie viele würden noch darauf zurückgreifen?

    Sieht nach einer Blase aus. Für ein linkes Medium wie Overton würde es sich anbieten, Wege aufzuzeigen, wie man auch ohne LLMs seinen Bürojob automatisieren kann, um mehr Zeit für die schönen Dinge des Lebens zu haben.

    Jeder ein Jäger, Hirte oder Kritiker. Karl Marx, ihr wisst schon.

      1. Man muss sich halt schlau anstellen: Automatisierung nur im Heimbüro, das vormittägliche Zoom-Meeting nicht vergessen.

        Kann man ja auch steuerlich absetzen.

        Ho! Ho! Heimbüro! Ho! Ho! Heim…

  24. Es gibt keine künstliche Intelligenz. Die erstaunlichen Fähigkeiten moderner sprachbasierter Systeme beruhen auf der intelligent programmierten Auswertung riesiger Datensätze. Determiniert ist dabei lediglich die Methode, nicht aber das Ergebnis. Das Ergebnis, die Antwort des Systems auf eine Frage oder Aufforderung, hat lediglich eine bestimmte Wahrscheinlichkeit. Seitdem Chat GPT nun in Echtzeit auf Daten im Internet zugreift, ist das System selbstreferentiell geworden. Was das für die weitere Entwicklung des menschlichen Denkens bedeutet steht in den Sternen.

  25. Ein beeindruckend absurdes Verfahren. Man entwickelt eine KI, die bekanntlich als blackbox keinen Aufschluss darüber gibt, wie sie funktioniert, um Rückschlüsse auf menschliche Denkprozesse zu ziehen.

    Mir fiel sofort auf, dass man die KI mit Millionen Datensätzen trainieren muss, damit die überhaupt brauchbare Ergebnisse liefert, also halbwegs (64%) korrekte Vorhersagen macht. Die KI funktioniert also überhaupt nur, wenn sie gut gefüttert wird. Der Mensch, dessen Verhalten sie vorsagen soll, funktioniert offenbar anders, wenn der nicht trainiert werden muss.
    Warum fällt das der Forschung nicht auf?

  26. nein.
    hat er doch schön selbst beantwortet:
    „Dazu kommt, dass Menschen mit ihrem Körper in die Umwelt eingebunden sind, Gefühle und Selbstbewusstsein bzw. Selbstwahrnehmung haben. Selbst wenn Centaur also Verhalten von Menschen mit Angststörungen in bestimmten Situationen simulieren könnte, kann er dann auch die Angst simulieren? Weiß er, wie es ist, als Mensch zu entscheiden?“
    Das geht noch weiter, menschliches Verhalten und die vorausgehenden Denkprozesse beruhen teilweise auf chemischen Informationen aus der Umwelt und dem eigenen Körper (bewusstseins- und stimmungs-beeinflussende Substanzen aus der Umwelt , der Nahrung usw., wie auch hormonelle Verhaltensbeeinflussung). Das kann eine KI kaum leisten, höchstens durch Kopplung mit Sensorik für Außenwelt, aber ein hormoneller Stoffwechsel ist kaum denkbar.

    Denken fängt für mich an, wenn eine KI selbständig logische Regeln und Algorithmen aufstellen und begründen kann. So in der Art „wenn zwei mal zwei gleich vier ist, muss zwei mal drei exakt sechs sein“ und nicht etwa „zwei mal zwei ist ungefähr gleich 3,999999 mit Konfidenzlevel 4Sigma und Messfehler <0.0000001" . Die grundlegenden logischen Verknüpfungen und Algorithmen sind allerdings schon im linguistischen System enthalten (das mit den Resultaten menschlichen Denkens gefüttert, also trainiert wurde), daher kann man z.B. bei DeepSeek sehr schön zusehen, wie es eine Frage oder Aufgabe analysiert und sich mit logischen algorithmischen Schritten zu einer Lösung hangelt. Noch dazu schreibt es den Weg in fehlerfreiem Deutsch auf! Ein naiver Zuschauer könnte durchaus der Meinung sein, dies wäre ein Denkprozess. Wenn man dieselbe Aufgabe einem Menschen stellt, und dieser dieselben Schritte zu der selben Lösung ausführt, sagt man, daß er algorithmisch und logisch vorgegangen ist, also ein Denkprozess abgelaufen sein muss.
    Stelle einem Computer mal die Aufgabe, eine Würfelkombination aus sechs Sechsen zu erzeugen. er wird vorrechnen, daß er 6hoch6 Versuche braucht, um mit einer gewissen hohen Wahrscheinlichkeit diese Kombination zu erzielen.
    Das vierjährige Kind dreht einfach alle Würfel auf 6. Treffer im ersten Versuch.
    Das 9jährige Kind würfelt jeden Würfel einzeln bis eine 6 liegt und schafft es womöglich mit weniger als 36 Versuchen.
    Human intelligence at its best…

    1. Die Digitalisierung und KI wird unser Ende sein.
      Bargeldabschaffung und totale Kontrolle sind die Folge.
      Die Navinutzer finden doch jetzt schon nicht mehr nach Hause!

  27. Es muss sich um eine ziemlich vertrottelte KI gehandelt haben.
    Rechnet das Verhalten von Menschen die Schatzsuche im Weltraum machen auf ein Abenteuer mit einem fliegenden Teppich um, aber kapiert nicht, das beides nicht geht.

    Wahrscheinlich gibt es bald ein neues Berufsbild.
    KI Verarscher*in.

  28. Ein Mensch kann souverän und unabhängig sein – er muss es nicht, aber er kann es sein.

    Ein künstliches Objekt KANN NIE souverän und unabhängig sein, denn sie hat Erbauer, Programmierer, Betreiber, Überwacher des Inputs, Kontrolleure, Auftraggeber, Financiers im Hintergrund, …

    Wenn man das Wort „denken“ mal weglässt (da es im Zusammenhang irreführend ist) sondern nur vom „Output“ redet, so hat das, was eine „KI“ als Output liefert NICHTS, ABER AUCH GAR NICHTS mit dem zu tun, was ein auch nur halbwegs souveräner Mensch an Output liefert – außer die reine, äußere Form.

    Die Fragen die man zu dem Thema „KI“ diskutiert, gehen an dem Kern der Angelegenheit vorbei:

    WEM DIENT EINE KI? Und wem dient ein Mensch, der einer „KI“ eine Denkfähigkeit zuspricht, ja auch nur darüber räsonieren und diskutieren will? Und was ist der Zweck der ganzen Übung?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert